Le 16 mai 2011

Quand les robots auront des émotions

On dirait un jeu vidéo de la fin des années 1970. Sur l'écran, des octogones de couleur munis de pinces se déplacent lentement, saisissent de petits carrés bleus et vont les déposer au bas de l'espace de jeu. Mais ce ballet rudimentaire n'est pas l'ancêtre de Pac-Man : c'est une simulation aux frontières de l'intelligence artificielle, avec des agents virtuels qui ont des motivations, des intentions et des comportements qui génèrent des états émotionnels…

La simulation est l'œuvre de Clément Raïevsky, étudiant au doctorat en génie électrique et informatique à l'Université de Sherbrooke. À première vue, on se demande ce que les émotions viennent faire là-dedans. En réalisant leur tâche, les agents doivent respecter une hiérarchie sociale prédéterminée : si un agent supérieur passe devant un agent inférieur, ce dernier lui cède le passage. Pendant la simulation, il arrive que des agents soient paralysés : par exemple, un agent inférieur est immobilisé dans un coin, mais ne peut reculer parce qu'un agent supérieur lui barre la route. Pour dénouer ce genre d'impasses, Clément Raïevsky a créé deux émotions virtuelles : la colère et la peur. Après quelques secondes, notre agent inférieur se met «en colère» et envoie un message à l'agent supérieur : «Tu n'es plus mon supérieur, laisse-moi passer!» L'agent supérieur, s'il est aussi impuissant à agir, se met à «avoir peur» et cède à la requête de l'agent inférieur.

C'est François Michaud, le directeur de thèse de Clément Raïevsky, qui lui a suggéré de développer cette simulation. Pour le responsable du Laboratoire de robotique mobile et de systèmes intelligents (LABORIUS), créer des agents «frustrés» et imprévisibles est loin d'être une simple fantaisie.

C'est au contraire une stratégie novatrice qui pourrait être intégrée à des robots pour les rendre plus performants. «Un robot doit avoir de bons mécanismes de perception pour ne pas percuter les obstacles, explique François Michaud. Mais il a aussi besoin de mécanismes décisionnels pour gérer plusieurs buts qui ne sont pas compatibles, et sans avoir toute l'information nécessaire pour agir. L'objectif pour nous est de reproduire la fonction des émotions, qui aident les humains à prendre des décisions», ajoute-t-il.

Dans un salon près de chez vous

Même si la simulation était un exercice théorique réalisé dans le cadre d'une thèse, le modèle «émotionnel» pourrait trouver des applications très concrètes. François Michaud espère qu'on pourra bientôt implanter des robots dans les maisons pour assister les personnes requérant des soins à domicile. Or, une maison est un environnement complexe et beaucoup de situations imprévues peuvent y survenir. Il estime qu'un mécanisme «émotionnel», qui permet une prise de décision rapide, pourrait très bien être intégré à un robot domestique.

Un autre domaine d'application pourrait être celui des jeux vidéo. Carle Côté est programmeur en intelligence artificielle chez Artificial Mind and Movement (A2M), une firme de jeux vidéo de Montréal, et un ancien de LABORIUS. Il explique que «pour économiser la mémoire de l'ordinateur, on ne donne pas toute l'information sur l'environnement aux personnages non joueurs, ou “PNJ” (ceux que le joueur ne contrôle pas). C'est pour ça qu'on voit des absurdités, comme un personnage qui court contre un obstacle sans se rendre compte qu'il devrait le contourner. Si le PNJ avait un mécanisme pour “se choquer” après quelques secondes, il pourrait changer de stratégie.»

L'erreur de Descartes

Les émotions comme mécanisme décisionnel… N'est-ce pas à l'opposé de ce qu'on nous a toujours enseigné : il faut garder la tête froide pour prendre une bonne décision? Michel Aubé, professeur en pédagogie à la Faculté d'éducation de l'Université de Sherbrooke, explique que «jusque dans les années 1970, on séparait nettement l'affect et la raison dans la penséeoccidentale. Il y avait beaucoup de préjugés envers les émotions : on les considérait comme des ratés dans le fonctionnement, des pertes de contrôle». Kant, le grand philosophe allemand du XVIIIe siècle, les considérait carrément comme des maladies de l'esprit; la psychanalyse les traitait comme des manifestations de troubles; certains courants en psychologie, comme le behaviorisme, le cognitivisme ou les neurosciences, les ignoraient. La perception dominante était que les émotions avaient peu d'intérêt scientifique et qu'elles ne servaient qu'à perturber notre bon jugement.

Pour qu'on arrive à considérer l'utilisation des émotions dans des modèles d'intelligence artificielle, il aura donc fallu d'abord accepter que les émotions jouent un rôle dans l'intelligence tout court. Ce n'est qu'au cours des dernières décennies que cette notion a progressivement fait son chemin. Une véritable percée, tant auprès des spécialistes que du grand public, est attribuable au neuropsychologue amé­ricain Antonio Damasio. En 1994, il publiait un livre dans lequel il montrait que l'opposition entre l'émotion et la raison n'était pas fondée. Sa démonstration reposait sur des exemples de patients qui avaient subi des dommages aux régions du cerveau liées aux émotions. Ces patients avaient conservé toutes leurs capacités cognitives : langage, mémoire, capacité à résoudre des problèmes abstraits, etc., mais ils étaient incapables de fonctionner dans la vie quotidienne et au travail. L'incapacité de vivre des émotions les empêchait de faire preuve de jugement social et de s'adapter à la complexité de la vie réelle, compétences considérées à juste titre comme des manifestations d'intelligence.

Pour Damasio, le mur érigé entre l'émotion et la raison rejoignait une opposition plus profonde : celle entre le corps et l'esprit, défendue par Descartes, et qui était tout aussi injustifiée. Descartes a dit : «Je pense, donc je suis.» Damasio a répondu, en quelque sorte : «Je suis, donc je pense»…

Un flou apparent que confirme Matthias Scheutz, un des collaborateurs de LABORIUS et professeur en sciences cognitives et en informatique à l'Université d'Indiana : «Les motsdu langage courant, comme “intelligence”, peuvent avoir plusieurs significations», explique-t-il. Mais il fait le parallèle suivant : «On ne peut pas définir précisément ce qu'est la douleur, mais ça ne nous empêche pas de développer des médicaments pour la réduire.»

À son avis, on peut simplement définir l'intelligence d'un agent comme étant sa compétence à exécuter une tâche en fonction de ses capacités de départ. Ainsi, même les fourmis présentent une forme d'intelligence, à tout le moins collective, puisqu'elles réalisent des tâches complexes à partir de capacités intellectuelles très limitées.

Pour Matthias Scheutz, «les émotions sont un mécanisme décisionnel approximatif, qui ne conduit pas à la meilleure décision dans chaque situation, mais qui donne de bons résultats dans l'ensemble». La clé de leur utilité : leur simplicité. On peut ressentir des émotions avec un minimum d'informations sur une situation, on la comprend intuitivement, directement, sans calcul. Or, cette capacité de fonctionner avec des informations rudimentaires est essentielle pour navi­guer en terrain inconnu et s'adapter à des situations nouvelles.

Darwin et l'évolution des robots

L'utilisation des émotions en intelligence artificielle pourrait avoir un intérêt à un autre niveau que celui d'agents isolés. Pour Michel Aubé, qui s'inspire notamment des travaux précurseurs de Darwin sur les émotions, si les mammifères et les oiseaux ont développé et conservé les émotions au fil du temps, c'est qu'elles jouent un rôle essentiel dans l'évolution des espèces qui en sont dotées.

Il y a des émotions, comme la peur, qui servent essentiellement à assurer la survie des individus. Mais d'autres émotions ont une fonction plus complexe : elles servent à tester et à renforcer l'engagement entre des indi­vidus. Par exemple, la joie qu'on ressent en rencontrant un ami sert à renforcer l'amitié; la honte motive une personne à ne plus poser de gestes qui menacent une relation; la colère est déclenchée parce qu'une personne a transgressé les règles sociales ou le cadre des relations interpersonnelles, et ainsi de suite.

Or, l'attachement et l'engagement encouragent les parents à élever leurs enfants longtemps, ce qui permet un plus long apprentissage et le développement d'une espèce plus complexe. L'engagement permet aussi la coopération, qui est une stratégie risquée, car on peut toujours «se faire avoir» dans une relation de coopération, mais qui est aussi la plus payante à long terme pour un groupe.

Michel Aubé croit que ces principes peuvent s'appliquer au domaine de l'intelligence artificielle, au sein de communautés d'agents virtuels. Comme chez les humains, les émotions pourraient servir à réguler les engagements entre des agents ou des robots, de telle sorte que la coopération émerge «naturellement» entre eux, ce qui les rendrait collectivement plus performants.

Remettre l'esprit dans la bouteille?

Est-ce que ces agents artificiels et ces robots pourront un jour ressentir de «vraies émotions»? Michel Aubé croit que oui. Comme d'ailleurs Matthias Scheutz et François Michaud. Mais n'est-ce pas là une perspective un peu terrifiante : qu'arriverait-il si les robots se mettaient «en colère» contre les humains?

François Michaud pense qu'il faut tempérer nos inquiétudes à ce sujet. Il est probable que des émotions (même au stade de la simple simulation) puissent conduire des robots à commettre des erreurs, à agir précipitamment dans certaines situations. Mais cela arrive aussi chez les humains. «Tous les outils que nous utilisons ont tous des défauts, explique-t-il. Les voitures provoquent des accidents, parfois mortels. Mais si l'avantage d'avoir des robots plus performants sur le plan de l'intelligence nous apporte plus de bénéfices que d'inconvénients, pourquoi ne pas les utiliser? En plus, on a plus de contrôle sur un robot que sur un humain, par exemple pour la force physique.»

Michel Aubé renchérit : «Les êtres humains les plus dangereux, les psychopathes et les sociopathes, partagent tous la même caractéristique : ils ont un déficit grave au plan des émotions. Les plus grands massacres de l'histoire ont été l'œuvre de sociopathes comme Hitler. Et franchement, est-ce que vous préféreriez faire garder votre bébé par une machine froide ou une gardienne humaine? Évidemment, on préfère les humains parce qu'on souhaite que la personne qui s'occupe de notre enfant manifeste de l'empathie. Or, pour être em­pa­thi­­que, il faut être capable de ressentir des émotions.»

Prêt pour une petite sortie avec les copains robots?

Pas de répit pour LABORIUS

Lorsqu'on franchit la porte 5103, au cinquième étage du pavillon de génie, on tombe sur un ensemble hétéroclite de troncs de robots montés sur des roues, de pièces de rechange, d'équipements électriques et d'ordinateurs. Le Laboratoire de robotique mobile et de systèmes intelligents (LABORIUS) tient un peu du garage, et pourtant on y fait des recherches de calibre international en robotique et en intelligence artificielle : en 2006, il a remporté cinq prix à la conférence annuelle de l'American Association for Artificial Intelligence. Le «bébé» du laboratoire, le robot Spartacus, a réussi à s'inscrire lui-même à la conférence, à assister à des présentations et à échanger avec les conférenciers. Derrière ces opérations apparemment anodines se cachent des systèmes informatiques et mécaniques complexes qui doivent gérer une quantité énorme d'informations visuelles et sonores, prendre des décisions et être capables de discuter le plus naturellement possible avec des humains. François Michaud, qui dirige LABORIUS depuis sa création en 1997, a toutefois peu de temps pour s'arrêter sur les exploits passés du laboratoire : il consacre son énergie à l'amener à un niveau supérieur avec la construction du Centre d'excellence en génie de l'information, qui doit ouvrir ses portes à la fin de 2010 ou au début 2011. «Le Centre nous donnera un vrai hall d'expérimentation avec des caméras et d'autres systèmes d'observation qui nous permettront de rendre nos travaux encore plus scientifiques, explique-t-il. Notre but est d'intégrer les robots dans la vraie vie, alors on a besoin de les étudier en situation réelle.» Un vrai terrain de jeu pour le petit frère de Spartacus, Johnny-0, qui verra le jour à la fin de 2009!

Une approche pragmatique de l'intelligence artificielle

Froduald Kabanza est professeur au département d'informatique de l'Université de Sherbrooke. Il ne vise pas à reproduire l'intelligence humaine, un objectif encore très ambitieux. Mais ça ne l'empêche pas d'obtenir des résultats concrets dans le domaine de l'intelligence artificielle : «Je préfère partir d'une application informatique de la vie réelle et pousser le logiciel à un niveau supérieur, sans avoir à déterminer quels sont les mécanismes fondamentaux de la décision chez les humains», explique-t-il. Par exemple, le Groupe de recherche en ingénierie du logiciel (GRIL), qu'il dirige, développe avec l'Agence spatiale canadienne un simulateur du bras canadien, qui est rattaché à la Station spatiale internationale. Le défi est de faire en sorte que le logiciel «comprenne» les intentions du manipulateur en formation pour le guider dans ses gestes. Comme les utilisateurs ont des profils variés, il s'agit d'une tâche assez complexe pour le programme de simulation. Un autre exemple est donné par une recherche appliquée d'un de ses étudiants au doctorat, Mathieu Beaudoin. Avec le Centre hospitalier universitaire de Sherbrooke, il a élaboré un logiciel de gestion des médicaments administrés au CHUS qui sera implanté cette année. Le logiciel vise à réduire les erreurs de prescription en donnant des conseils aux pharmaciens et aux médecins, tout en permettant à ces derniers d'accepter ou non les recommandations. Le logiciel s'autoajuste continuellement en fonction des décisions des professionnels pour donner de meilleurs conseils la prochaine fois. Par exemple, un hôpital où sévit le C. difficile pourrait refuser de donner un médicament qui renforcerait l'épidémie, même si ce médicament serait normalement approprié.

Jouer pour apprendre

Si les humains travaillent à doter les robots de capacités cognitives, ces derniers pourraient de leur côté faciliter le développement cognitif des humains. Prenons le robot Roball, créé au sein de LABORIUS : il roule par lui-même, émet des sons, parle, fait jouer de la musique, etc. «Un tel robot pourrait faciliter le développement psychomoteur des enfants en bas âge», dit la professeure Hélène Larouche, spécialisée en enseignement préscolaire et primaire à l'Université de Sherbrooke. Elle participe aux études qui visent à évaluer comment les enfants se comportent en sa présence. «La répétition joue un rôle primordial dans l'apprentissage chez les enfants. C'est pour ça qu'ils adorent répéter le même jeu, ajoute-t-elle. Mais comme la patience des parents est limitée, un robot-jouet interactif comme Roball pourrait être utile au développement des tout-petits.»